1
За пределами одиночных запросов: переход к сложным рабочим процессам
AI010Lesson 4
00:00

Конец «мега-запроса»

На ранних этапах разработки моделей ИИ пользователи часто пытались «втиснуть» все инструкции, ограничения и данные в один огромный запрос. Хотя это кажется логичным, такой подход приводит к переобучению, высокой стоимости токенов и создает «черный ящик», где отладка сбоев становится почти невозможной.

Отрасль переходит к цепочке запросов. Этот модульный подход рассматривает модель ИИ как ряд специализированных работников, а не перегруженного универсального сотрудника.

Зачем использовать цепочки запросов?

  • Надежность:Разбиение сложной задачи на управляемые подзадачи значительно снижает частоту галлюцинаций.
  • Интеграция:Это позволяет динамически вставлять данные из внешних источников (например, внутренней базы данных в формате JSON или API) в середине рабочего процесса.
  • Экономия ресурсов:Вы отправляете только необходимый контекст для каждого конкретного шага, экономя токены.
Правило thumb: декомпозиция задач
Один запрос должен выполнять одну конкретную задачу. Если вы обнаружите, что используете более трех выражений «и затем» в одном запросе, пора объединить их в отдельные вызовы.
pipeline.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute pipeline.
>
Knowledge Check
Why is "Dynamic Context Loading" (fetching data mid-workflow) preferred over putting all possible information into a single system prompt?
It makes the model run faster on local hardware.
It prevents model confusion and reduces token costs by only providing necessary data.
It allows the model to ignore the system instructions.
Challenge: Designing a Safe Support Bot
Apply prompt chaining principles to a real-world scenario.
You are building a tech support bot. A user asks for the manual of a "X-2000 Laptop."

Your task is to define the logical sequence of prompts needed to verify the product exists in your database and ensure the final output doesn't contain prohibited safety violations.
Step 1
What should the first two actions in your pipeline be immediately after receiving the user's message?
Solution:
1. Input Moderation: Check if the prompt contains malicious injection attempts. Evaluate as $ (N/Y) $.
2. Entity Extraction: Use a specialized prompt to extract the product name ("X-2000 Laptop") from the raw text.
Step 2
Once the entity is extracted, how do you generate the final safe response?
Solution:
1. Database Lookup: Query the internal DB for "X-2000 Laptop" manual data.
2. Response Generation: Pass the user query AND the retrieved DB data to the LLM to draft an answer.
3. Output Moderation: Run a final check on the generated text to ensure no safety policies were violated before sending it to the user.